Elon Musk et un millier d’experts demandent une pause dans le développement de l’IA pour protéger l’humanité
Alors que l’agent conversationnel ChatGPT ne cesse d’évoluer et de faire parler de lui, des centaines d’experts dans le domaine de l’intelligence artificielle s’inquiètent dans une lettre ouverte et demandent une pause de six mois dans les recherches sur les outils plus performants que ChatGPT4. Ils déclarent que certains systèmes d’IA sont potentiellement une grave menace pour la société et l’humanité, notamment en raison de l'imprévisibilité de ces outils, même pour leurs créateurs, et des risques pour les travailleurs.
Ces dernières années, l’intelligence artificielle s’est développée à un rythme effréné et inquiétant, frôlant dangereusement des risques soulignés dans des œuvres de science-fiction. Elon Musk, cofondateur et ancien membre du conseil d’administration d’OpenAI, l’entreprise qui a par la suite créé ChatGPT, avait mis en garde le 3 décembre dernier contre les risques posés par le prototype. Dans un message sur Twitter, le milliardaire avait écrit :
" ChatGPT est terrifiant. Nous ne sommes pas loin d’une IA dangereusement puissante."
Moins puissante que son successeur apparu peu après, le 14 mars. Ce jour-là, OpenAI a lancé sa dernière version de l’agent, ChatGPT4, qui présente davantage de précision, selon l’entreprise, et est capable d’interpréter des images. L’entreprise l’a proposé en affirmant que l’agent "est plus créatif et collaboratif que jamais. Il peut générer, éditer et itérer avec les utilisateurs sur des tâches d’écriture créatives et techniques, telles que la composition de chansons, l’écriture de scénarios ou l’apprentissage du style d’écriture d’un utilisateur."
À l’occasion du Sommet mondial des gouvernements à Dubaï en février dernier, Musk avait appelé à développer des "règles ou des règlements pour contrôler le développement de l’IA", en faisant une analogie avec la sécurité des transports ou médicale.
Dans la lettre du 28 mars ouverte à signature et publiée sur le site du Future of Life Institute, le fondateur de Tesla et SpaceX, est l’une des centaines de voix qui demandent une pause dans les recherches sur l’IA. Le choix du média n’est pas anodin, Musk est l’un des consultants de l’institut qui fait profession de dénoncer les risques existentiels que fait peser l’IA sur l’humanité et demande de "diriger la technologie transformatrice au profit de la vie et loin des risques extrêmes à grande échelle".
Si nombre de signataires de la lettre ont un conflit d’intérêts dans leur critique de ChatGPT, travaillant notamment dans des entreprises concurrentes d’OpenAI et Microsoft dont l’avance est monstrueuse, leurs critiques n’en restent pas moins légitimes et préoccupantes.
Les signataires disent croire que "l’humanité peut jouir d'un avenir florissant grâce à l'IA "et parlent de "profiter d’un été de l’IA" avec des systèmes conçus "pour le plus grand bénéfice de tous" et souhaitent donner "à la société "une chance de s’adapter". Mais cela n’est possible qu’à la condition d’agir comme lorsque "la société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle".
Concluant la métaphore, ils exhortent à une pause fondée sur le principe de précaution :
"Profitons d'un long été de l'IA et ne nous précipitons pas sans préparation vers l'automne."
Un risque pour l’humanité : l’absence de contrôle et de réflexion
Cet automne pourrait être précipité par le fait qu’il n’y a pas de possibilité actuelle de contrôler totalement les développements de l'IA. Les auteurs de la lettre déclarent que les systèmes d’IA concurrents de l’homme sont susceptibles de menacer en profondeur la société et l’humanité. Ils en veulent pour preuve les recherches exhaustives "reconnues par les principaux laboratoires d’IA".
Au regard des principes développés en 2017 lors de la conférence d’Asilomar sur l’intelligence artificielle (coordonnée par le Future of Life Institute), disent-ils, "l’IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires."
Malgré ces principes, "ce niveau de planification et de gestion n'existe pas". Ils soulignent que ces derniers mois, les laboratoires se sont enfermés "dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler avec fiabilité".
De tels risques sont mentionnés dans des œuvres de science-fiction qui ont souvent le mérite de soulever des questions éthiques, notamment quant à l’articulation entre technologie et pouvoir politique, mais également par des penseurs comme Jacques Ellul ou Georges Bernanos. Le premier, historien, sociologue et théologien protestant, se réjouissait des apports de la technologie qui permet par exemple de voyager et de "recevoir des images du monde entier" :
"Donc, vous avez un univers libre devant vous."
Mais l’auteur des ouvrages "Le Système technicien" ou "Le bluff technologique", estimait que l’automobile poussait par exemple trois millions de Parisiens à se rendre chaque année en vacances au bord de la Méditerranée, comme une masse sans réflexion sur son mouvement :
"C’est très difficile dans une société [technicienne] comme la nôtre que l’homme puisse être responsable."
Ellul mentionne les justifications données par le directeur du camp nazi de Bergen-Belsen, lors du procès de Nuremberg, selon lesquelles il n’avait pas le temps de penser aux gens qui mouraient, car il était préoccupé par les soucis techniques des fours. Les outils technologiques de plus en plus performants font, malgré leurs avantages, que l’homme devienne lui-même l’instrument de ce qui devait être des moyens.
L’écrivain catholique Georges Bernanos ne met pas moins en garde dans son prémonitoire "La France contre les robots", paru en 1947, en déclarant que le principal danger est l’absence de réflexion sur la technique, notamment avec ces mots devenus relativement célèbres :
"Le danger n'est pas dans la multiplication des machines, mais dans le nombre sans cesse croissant d'hommes habitués, dès leur enfance, à ne désirer que ce que les machines peuvent donner."
Des alertes bien en amont de l’apparition de l’IA, et d’une telle puissance réduisant l’homme au second plan, voire au rang d’inutile.
Un risque pour l’information et le marché du travail
Bernanos opposait "la civilisation des machines [qui] est celle de la quantité" à "celle de la qualité".
Une inquiétude que font leur les signataires de la lettre qui observent le fait que "les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour les tâches générales". Ils posent la question fondamentale pour l’avenir de la société démocratique :
"Devrions-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui offrent le plus d’épanouissement ?"
Il s’agit là d’un signal d’alerte qui ressemble, de façon très actualisée, à ce que dénonçait déjà Paul VI dans son encyclique Populorum Progressio en 1967, rappelant que la technique devait être au service de l’homme.
Dans le point 20 de l’encyclique, le pape soulignait que "si la poursuite du développement demande des techniciens de plus en plus nombreux, elle exige encore plus des sages de réflexion profonde, à la recherche d'un humanisme nouveau, qui permette à l'homme moderne de se retrouver lui-même, en assumant les valeurs supérieures d'amour, d'amitié, de prière et de contemplation."
Une préoccupation qui, au regard de la difficulté des concepteurs à maîtriser parfaitement leurs outils d’IA les plus performants prend un sens particulier. Les techniciens sont nombreux, mais la réflexion morale a été trop oubliée, conduisant à une poursuite du développement mal encadrée.
Parmi les conséquences, l’IA menace l’homme alors que le "programme fait pour augmenter la production", dit Paul VI dans le point 20 de sa lettre, devrait être là pour « libérer l’homme de ses servitudes [sur le plan du travail], le rendre capable d’être lui-même l’agent responsable de son mieux-être matériel, de son progrès moral ».
L’encyclique alertait par ces mots sur la technicisation censée enrichir la société :
"Dire: développement, c'est en effet se soucier autant de progrès social que de croissance économique. Il ne suffit pas d'accroître la richesse commune pour qu'elle se répartisse équitablement. Il ne suffit pas de promouvoir la technique pour que la terre soit plus humaine à habiter."
Le propos est corroborée par la récente étude de Goldman Sachs, publié le 26 mars dernier, qui indique que 300 millions d’emploi pourraient être supprimés dans le monde à cause du recours à l’IA, soit 18 % de la masse.
Des préoccupations que rejoignent les auteurs de la lettre qui saluent la déclaration d’Open AI du 24 février dernier selon laquelle "à un moment donné, un examen indépendant pourrait être nécessaire avant de commencer à former les futurs systèmes". Tirant leur conclusion de cette déclaration, ils entendent qu’elle ne reste pas qu’une vague promesse et écrivent :
"Par conséquent, nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire."
Jean Sarpédon